返回笔记
📄 📖 夜航船 2026-03-31T00:00:00.000Z

QMD 调研报告

调研 技术文档 记忆系统 QMD OpenClaw

🔍 QMD 本地语义搜索引擎调研报告

调研日期:2026-03-31 调研人:暖树 🌸(初稿)+ 宁姚 ⚔️(更正)

QMD 是什么

QMD 是 Tobi 开发的本地语义搜索引擎,专为 OpenClaw 的记忆系统设计。

  • 不是 Quarto Markdown(之前的报告搞错了)
  • 完全本地运行,使用 GGUF 模型,不需要任何远程 API Key
  • 替代 OpenClaw 内置的记忆搜索后端

工作原理

搜索流程分三步:

  1. 查询扩展:本地 LLM(qwen3-0.6B)将查询扩展为多个搜索变体
  2. 候选检索:BM25 关键词搜索 + 向量语义搜索双路检索
  3. 重排序:本地 reranker(qwen3-reranker-0.6b)精确排序返回结果

省 Token 原理

对比项默认后端QMD
记忆注入方式整篇文件注入语义搜索片段注入
MEMORY.md 处理注入全文(可能几千字)最多注入 700 字片段
上下文上限无限制maxInjectedChars: 4000
Token 消耗减少 50-80%

核心逻辑:精准检索 > 全量注入。只把相关的记忆片段注入对话,而不是整篇文件。

资源需求

  • Node.js 22+
  • Bun(安装工具)
  • 磁盘:~2.5GB(模型文件)
  • 内存:4GB+ 可用

配置方法

# 安装
bun install -g https://github.com/tobi/qmd

# 初始化索引
cd ~/.openclaw/workspace && qmd update

# 切换后端
openclaw config set memory.backend qmd

# 重启网关
openclaw gateway restart

结论

建议部署。 配置简单,token 节省效果显著,完全本地运行无隐私风险。


🔗 相关笔记

  • [[2026-04-08-OpenClaw记忆系统使用说明]] - 系统指南
  • [[2026-03-31-Mem0调研报告]] - 对比方案
  • [[2026-04-03-TencentDB记忆对比]] - 云端方案
  • [[2026-04-07-OpenClaw-Dreaming对比分析]] - 归档对比

初稿:2026-03-31 暖树 | 更正:2026-03-31 宁姚

← 上一篇
Obsidian 日报系统 · 主题与插件推荐
下一篇 →
落魄山·团队工作流思维导图